#AI 發展
2026中國內容機構(MCN)行業發展研究報告:六大看點
《克勞銳的〈2026中國內容機構(MCN)行業發展研究報告〉》主要內容。一、行業進入“精打細算”的成年期,賺錢更難了過去的十年當中,MCN行業彷彿在“流量風口上狂奔”,誰奔跑得速度夠快誰便能夠獲取到錢財。然而到了2025年的時候,該行業正式邁入“微利時代”,眾多機構儘管收入依舊處於增長態勢,可是利潤卻無法提升上去,甚至出現下滑情況。將近八成的機構面臨利潤增長方面的壓力,該行業從原本的整體“拼規模”轉變為“拼效率”。機構開始進行“瘦身”操作,將其拆分為一個個小團隊,引入合夥人機制,砍掉那些不盈利的業務,運用AI去替代重複性的工作,把控好每一分錢的支出使其都花發揮最大價值。簡單來講就是:不再像以往那樣變成“只要做大便可以獲勝”,而是轉變成了“唯有做精才能夠存活”。二、平檯布局“多點開花”,內容更講“真實感”之前,MCN 大多將賭注押在一兩個平台上,如今這樣做已行不通,機構得同時於多個平台展開佈局,涵蓋抖音、小紅書、視訊號,甚至是海外平台,以此來分散風險、尋覓新機遇,小紅書成了重點拓展的方向,視訊號所蘊含的潛力也在不斷釋放,與此同時,使用者於“精緻劇本”產生了疲勞之感,反倒更為青睞具備“野生感”“活人感”的內容,也就是真實、自然、不做作,機構也開始從“強管理”轉變為“服務繫結”,憑藉優質的內容以及服務去吸引達人,而非依靠合同進行強硬把控。三、未來方向:從“流量中介”變身“產業服務商”MCN 已不再單純是充當幫達人承接廣告、創作內容的那種中介角色了,而是正逐步演變成“綜合服務體”。存在一些機構自行開展品牌打造工作、進行出版業務、涉足線下文旅領域;存在一些機構將短影片 IP 轉化為培訓認證體系,甚至於獲取景區經營權;另外還有些機構借助 AI 以工業化方式生產內容,向東南亞、拉美等地區拓展,複製國內成功模式。未來的 MCN,並非流量的依附對象,而是成為連接內容、商業以及產業的“超級樞紐”——能夠助力品牌切實實現貨品銷售、為使用者真正解決問題的一方,便能走得更為長遠。(TOP行業報告)
《國發基金攜手國聯青鋒 AI半導體新基金正式啟動》面對當前AI科技驅動百工百業新創投資浪潮,繼而帶動數位生活的急速轉型,主導政府主要投資量能的國發基金執行秘書汪庭安,26日在一場聚集國内AI、半導體、生技產業菁英的盛會中宣示,台灣在這百年一遇的產業革命浪潮中,已架構軟硬鏈結且難被取代的優勢地位,國發基金將擷取以色列、矽谷創投模式,努力結合民間充沛的資源,扮演創投產業界最佳投資伙伴的角色,將新創事業推向國際,創造台灣Al新世代的經濟奇蹟。國内老牌的創投集團國聯青鋒資本,由董事長張水江攜手共同合夥人孫慶鋒、林育民協力掌旗,26日在台北JR東日本酒店,邀集國內近百位上市櫃第一線科技投資界領袖齊聚一堂,圍繞半導体與算力、移動與資通訊、數位科技應用、新能源等領域,熱烈交流,共創商機,國發基金執行秘書汪庭安及副執行秘書葉淑芳特别全程參與,和產業界交朋友搏感情,凝聚朝野投資量能,放眼向前。汪庭安强調,國發基金並非沈默的“金主”,為了更有效把本土新創事業帶向國際,早就示範性的鳩集矽谷台灣天使群和海外接軌;在國内更擴大鏈結產發署、中企署、科技部、數位發展部,擴及包括國聯創投在内的本土適格創投專業投資機構,主動蒐尋投入各類具潛力的創新事業,甚至延伸到投後管理、海外投融資等服務,其政策目標就是盡力從早期(early stage)搭配投入,即能共同承擔新創風險,扶植各行各業的前瞻性投資作為,奠定台灣厚實的未來性産業基礎!由於國聯創投集團近二十餘年來,除了本身募集管理的創投基金之外,也一直以其穩健的投資表現,獲得國發基金甄選委託,擔當協助管理投資政府資金的重責。該集團並於26日同步發表,甫完成設立並啟動的新一檔AI半導体基金,基金合夥人則涵蓋瑞鼎科技、普誠電子、所羅門集團、群光電子、豐群投資、矽創電子、雷科公司、凌陽創投等,這項極具戰略導向的首輪基金,將賡續配合國發基金的加持,共同投入推進相關A半導體企業的快步發展。國聯青鋒投資長林育民表示,台灣晶圓製造產業,已成為全球AI算力主要提供者,新創公司則結合完整供應鏈,提供設計服務、封裝技術、製程設備及材料等,將成為在超越摩爾定律技術藍圖上的受惠者。因此,林育民堅信,國聯青锋以其長期持續專注AI半導體科技領域,深度研究產業轉型面向、痛點、機會、潛在競争及市場規模,未來將憑藉這套完整歷練的專業團隊職能,在當前大趨勢的交會點上,參與投資驅動關鍵技術應用的新創公司,匯聚能量積極貢獻台灣新世代產業的枝繁葉茂茁壯發展。
NVIDIA最新發佈《2026 年醫療保健與生命科學領域的AI現狀及未來發展趨勢》:AI正在讓看病更快、更準、更省錢
最近,NVIDIA 發佈了備受關注的《State of AI in Healthcare and Life Sciences: 2026 Trends》調研報告。這份報告基於 2025 年 8-9 月對全球 600 多名醫療和生命科學專業人士的調查(管理層與 AI 從業者各佔一半),涵蓋製藥、醫療器械、數字醫療、支付方與提供方等多個細分領域。報告用實打實的資料告訴我們:AI 已經在醫療健康行業站穩腳跟,而且正在加速從“嘗鮮”走向“規模化盈利”。過去一年,AI 的應用成熟度明顯躍升。報告直言,AI不僅幫助醫療器械廠商快速適應新法規,還大幅縮短新藥研發時間,甚至能建立人體數字孿生來輔助癌症治療。更讓人振奮的是,AI agents(智能代理)正讓醫生們把時間還給患者,而不是埋頭在文書工作裡。AI採用率持續攀升,70%企業已在實際使用報告顯示,2025年有 70% 的受訪組織正在積極使用 AI,比2024年的 63% 又上升了7個百分點。其中,生成式 AI 和大語言模型的使用率從 54% 躍升至 69%,成為最熱門的工作負載。各細分領域全面進步:數字醫療:78%(去年70%)製藥與生物科技:74%醫療器械、工具與診斷:70%支付方與提供方(醫院、保險公司等):56%(去年僅43%,大漲13個百分點)中大型企業(員工超100人)採用更多類型AI,包括生成式AI、資料分析、Agentic AI等,幾乎每個工作負載都比小企業高出約 10個百分點。生成式AI和資料分析仍是各行業前兩大重點,只有醫療器械領域把電腦視覺排在首位(59%)。預測與資料分析仍是AI核心,臨床決策支援最受歡迎65% 的組織把 AI 用於資料分析和資料科學,42% 用於支援臨床決策。這兩大應用貫穿藥物發現、影像診斷、個性化醫療等全鏈條。分行業看,用法各有側重:製藥與生物科技:藥物發現與開發(57%)、基因組應用(44%)數字醫療:虛擬健康助手與聊天機器人(52%)、臨床文件自然語言處理(50%)支付方與提供方:行政任務與工作流最佳化(52%)醫療器械:醫療影像(61%)整體而言,臨床決策支援是全行業最受歡迎的AI用例(42%),其次是醫療影像和行政工作流最佳化(各 38%)。真實盈利來了!醫療影像和藥物發現ROI最亮眼這是報告最鼓舞人心的部分:當 AI 針對具體場景落地時,回報非常明顯。醫療器械領域:57% 的企業表示醫療影像AI已產生ROI製藥企業:46%表示藥物發現與開發AI實現ROI數字醫療:虛擬健康助手與聊天機器人是最高回報用例支付方:行政工作流最佳化回報最顯著全行業來看,醫療影像、工作流最佳化、臨床文件自然語言處理是前三大ROI用例。管理層反饋:85%認為AI幫助年度收入增長80%認為AI幫助年度成本下降44% 的管理者表示收入增長超過 10%(小企業更高達56%)開源模型成“秘密武器”,82%企業視其為戰略關鍵為什麼AI能精準落地?報告給出的答案是開源。82%的受訪者認為開源模型和軟體對AI戰略“重要”或“非常重要”,其中小企業認可度更高(64% 認為非常重要)。開源讓企業能用自己的資料微調模型,打造高度專用的AI解決方案,而不是用通用大模型“將就”。推理性能(模型精準度、資料合規、成本效率)成為大家最關注的點,38% 把模型性能與合規列為首要因素,37% 最看重總擁有成本。基礎設施也在悄然變化:混合計算(本地+雲)使用率從去年的 35% 升至 43% ,純雲部署則從 41% 降至 35% 。Agentic AI初露鋒芒,47%組織已在嘗試今年報告新增了 Agentic AI(智能代理)專題,結果讓人驚喜:47% 的組織已在使用或評估AI agents其中 22% 已實際部署,19% 計畫明年部署大企業部署比例更高(27% 已部署)製藥與生物科技領域最積極:48% 用 AI agents 做藥物發現和生物標誌物識別。整體最受歡迎的 Agentic AI 用例是:知識管理和檢索(46%)文獻綜述與分析(38%)內部流程最佳化(37%)分行業看,製藥側重文獻綜述(55%)和藥物發現(48%);數字醫療最愛患者聊天機器人(49%)。不過挑戰也不小:性能可靠性(27%)、資料相關問題(隱私、安全)、監管合規是三大痛點。40%的企業表示,HIPAA、FDA審批、GDPR等合規要求是實施Agentic AI的最大影響因素。2026年AI預算大增85%,醫療AI進入“飛輪期”因為看到了實實在在的回報,企業信心滿滿:85%的受訪者表示2026年AI預算會增加近一半企業增幅超過10%預算主要流向:最佳化現有AI工作流和生產周期( 47% ,比去年上升)建構或獲取更多AI基礎設施( 34% ,比去年上升)報告總結:醫療AI正進入“飛輪階段”——早期試點成功→更多投資→更好效果→更大投資。2027年,AI 很可能從單純預測分析轉向更成熟的 Agentic 系統,在患者群體、臨床試驗、護理流程中實現端到端智能推理。總結:AI不是“未來”,已經是醫療的“現在”這份 NVIDIA 報告用 600 多份真實調研資料證明:AI 正在讓醫療更高效、更精準、更親民。無論是大藥企用 AI 加速新藥研發,還是醫院用聊天機器人減輕醫生負擔,或者保險公司用工作流最佳化降低成本,AI 都已交出漂亮答卷。當然,預算、人才、資料合規仍是需要跨越的門檻。但趨勢已經清晰:誰先把 AI 和自身業務深度融合,誰就能在 2026 年搶佔先機。 (AI資訊風向)
《馬尾藻公害變綠能!台灣綠能國家隊將助友邦貝里斯「點害成金」》面對加勒比海地區日益嚴峻的馬尾藻(Sargassum)擱淺與腐敗問題,海洋福星生物科技股份有限公司今(4)日與貝里斯大使館、台灣金屬工業研究發展中心(MIRDC)共同舉辦「貝里斯馬尾藻資源化暨人才培育策略合作—合作意向書簽署暨聯合記者會」,三方並正式簽署合作意向書(LOI),宣示啟動「落地發電示範|社區分潤共益|實習與就業銜接」三大合作主軸,推進馬尾藻資源化發電專案與跨國綠能人才培育落地。這也是全球首創將馬尾藻轉化為發電燃料的綠能計畫案。馬尾藻對台灣人並不陌生——它常被視為餐桌上的「海味來源」,用來提鮮、入菜,許多人吃過卻未必叫得出名字。但同樣的藻類,一旦在海邊「暴量上岸」,就會瞬間從海鮮配角變成沿岸災情:堆積、腐敗、發臭,清運成本節節攀升,觀光與漁港作業首當其衝,連沿海居民的日常生活也被迫跟著受影響。對貝里斯等加勒比海國家而言,這已不是偶發事件,而是年年重演、難以承受的長期公害。如今,這個看似無解的僵局,出現一條新的出口。台灣團隊提出的思路相當直接:既然清不完,就把它當成原料——把原本要花錢處理的擱淺馬尾藻,轉化為生質能源,再進一步用於發電。換句話說,公害不再只是支出項目,而可能被重新定義為綠能與電力韌性的一部分:一方面減輕沿岸清運壓力,一方面把海灘上的負擔,轉成看得見、用得上的能源供給。這項合作4日在台北正式對外說明並完成合作意向簽署。貝里斯大使館、金屬工業研究發展中心與台灣企業海洋福星生物科技股份有限公司等單位共同出席簽署合作意向,後續將以馬尾藻資源化、示範應用與人才培育等方向持續推進。對貝里斯而言,這不只是「把藻清掉」;對台灣而言,也不只是一次技術輸出。若示範能真正落地,馬尾藻從公害翻身成綠能的故事,將不僅改善在地生活與能源條件,也可能成為更務實的邦誼模範——用可運作的方案解決問題,用可持續的合作把關係做深。海洋福星近期方榮獲《商業周刊》「AI 創新百強」節能減碳類金質獎肯定。海洋福星表示,這次與友邦貝里斯合作的核心,正是以 AIoT 串聯「燃料端—設備端—營運端」,將環境負擔轉化為可持續運轉的綠電與碳管理方案,並結合金屬工業研究發展中心把「技術輸出」與「人才培育」同步落地,形成可複製、可擴散的國際合作模式。金屬中心本為我國整廠輸出重要推動法人單位,基於木質顆粒能源整廠輸出等實務經驗,進行貝里斯馬尾藻廢轉能可行性評估,篩選國內已具備前端處理、生質發電作業、燃料棒產出及製程監控等關鍵技術之潛力輸出業者海洋福星生物科技,並藉由本案推動產學合作培訓貝國學生,同時積極爭取外交體系及中美洲銀行(CABEI)等單位資源,促進雙邊合作及輸出效能。根據合作規劃,專案將以「去化—再利用—加值」三段式治理模式推進:前端蒐集與前處理;中段燃料棒化與氣化發電;後端串接生物碳與碳管理(MRV)資料體系。系統採撬裝模組化設計,便於跨海運輸與快速部署,可先以 100kW 作為示範場域最小可行規模,並依料源與負載需求逐步擴充至 MW 兆瓦級,支援 24 小時全天候排程發電之再生能源基載應用;亦可結合儲能形成區域微電網,優先支援關鍵基礎設施的韌性供電需求。在社會共益面向,專案導入「社區參與並分潤」機制:由當地社區團體參與馬尾藻清運與供料,綠電收益將依供料量定期回饋社區,協助建立長期治理與就業機會,提升社區經濟韌性。海洋福星強調,唯有把治理效益回饋在地、讓社區成為合作夥伴,才能讓清運落實為長期可持續的產業模式。本次合作另一亮點為人才培育。三方將共同建立「在台就學、在台培訓(台企實習)、返國就業」的人才通道,對接外交部臺灣獎學金、國合會獎學金與教育部臺灣獎學金等既有機制,並由金屬工業研究發展中心等單位提供實習與實作培訓。未來表現優秀的貝里斯獎學金學生,將有機會銜接海洋福星於貝里斯之營運據點任職,形成「教育—產業—就業」一條龍的友邦綠能人才循環。海洋福星指出,本案以友邦在地需求為起點,結合台灣新創企業、國家級研發法人與駐外外交體系,兼顧能源韌性、環境治理、社區共益與青年培育,是「經濟外交+永續外交+人才外交」的具體示範。海洋福星也表示,期待外交部在林佳龍部長所倡議的總合外交與經濟外交方向下,持續支持更多台灣產學研與企業以公私協力模式走進友邦,讓世界看見台灣不只提出倡議,更能提供「可落地、可衡量、可擴散」的解決方案。
中國AI,最新趨勢來了!
新華深讀|2026年中國AI發展趨勢前瞻人工智慧(AI)企業數量超過6000家,AI核心產業規模預計突破1.2兆元,同比增長近30%;中國國產開源大模型全球累計下載量突破100億次;中國成為AI專利最大擁有國,在全球佔比達60%;這些資料勾勒出2025年中國AI發展的圖景。一邊是AI技術突破,走出一條不同於美國矽谷的“開源創新”之路,另一邊是AI與經濟社會的融合由淺入深。1月以來,智譜、天數智芯、MiniMax等中國AI企業扎堆上市。本月由清華大學主辦的“AGI-Next”峰會上,行業專家形成共識:以對話為核心的“Chat”範式已告終結,AI競爭轉向“能辦事”的智能體時代。2026年是“十五五”開局之年。根據“十五五”規劃建議,中國將加強人工智慧同產業發展、文化建設、民生保障、社會治理相結合,全方位賦能千行百業。新華社記者採訪相關部委負責人、行業專家、企業代表、創業者等,前瞻AI發展新趨勢。技術範式:AI從“聊天”走向“做事”1月,DeepSeek連發兩篇梁文鋒參與署名的論文,再次將這家AI企業推到聚光燈下。論文的核心貢獻,是試圖解決訓練大模型時遇到的記憶體瓶頸和穩定性難題。業界評價,新一代大模型模樣更清晰了。DeepSeek的一舉一動備受關注。一年前,其發佈的中國國產大模型DeepSeek-R1給全球AI行業帶來巨震。“DeepSeek標誌著中國AI技術路線分化突破的出現。”清華大學智能產業研究院創始院長張亞勤說,“中國轉向擁抱更輕的模型、更聰明的架構、更高的效率和更低的價格。”眼下,AI發展正沿兩條主線並進:技術向上衝刺,尋求突破認知與協同的侷限;應用向下紮根,解決真實痛點。“向上衝刺”,就是尋求“更聰明”的演算法和架構,不僅提升單一模型的性能,創新突破也更聚焦提升智能密度。密度法則,是指用更少的計算和資料,更高效地得到更多智能。中國AI公司面壁智能聯合清華大學團隊發表論文《大模型的密度法則》,對大模型的進化方向作出判斷:AI將在能力和成本兩個方向同時進化,提升效率同樣是主線。從“拼規模”轉向“拼密度”,精煉高效成為大模型演進的核心邏輯之一。中國資訊通訊研究院副院長魏亮認為,行業已不再單純依靠提升參數規模實現性能突破,精細化機制、演算法架構、訓練方法的最佳化成為主要提升方向。中國信通院發佈的《人工智慧產業發展研究報告》指出,在演算法架構方面,以DeepSeek的NSA、月之暗面的MoBA等為代表的稀疏注意力機制,成為提升模型推理效率的重要技術路徑之一。通俗的解釋是,想像你坐在一個萬人大禮堂,注意力機制從傳統的“聽每一個人說話”提升為如今“聽關鍵人物發言”。大模型本質上是通過海量資料歸納語言規律,訓練出特定的識別模式,掌握預測文字的能力。就像孩子雖沒有理解詩歌,卻能通過反覆朗誦背出《靜夜思》。回顧本輪AI浪潮,演算法架構和算力、資料一樣,是智能湧現的重要條件。張亞勤說:“規模定律並未失效,我們仍需要算力和資料作為基座。”不過他也指出,堆算力的邊際效益趨於平緩。業內人士認為,演算法架構革新將是AI未來發展的突破點。當模型“智力密度”持續提升,讓前沿智能“向下紮根”、變得“更能幹”,就成為行業要面對的命題。“幾十年來,AI主要關注開發新的訓練方法和模型。”曾擔任OpenAI研究員、後出任騰訊總裁辦公室首席AI科學家的姚順雨認為,在AI競爭的下一個階段,為誰解決什麼問題成為關鍵。“騰訊已把自研大模型在內部超過900個場景和應用落地,核心思路是把AI深度融入場景,讓好用的AI成為普惠生產力。”騰訊相關負責人表示,全球具備大模型底座研發實力的廠商已逐步收攏,高品質的資料、廣泛的生態和場景,將成為拉開競爭差距的重要因素。各大廠商不約而同加快AI真實場景落地的開發。百度新設立了基礎模型研發部、應用模型研發部。公司創始人李彥宏稱,未來AI領域只會剩下少數幾個基礎模型,但在應用層,將出現許多在不同方向上都取得成功的參與者,那裡才是機會最多的地方。中國信通院的報告顯示,基礎模型數量正持續收斂,在真實場景中的應用效果成為關注重點。以大模型“六小虎”為例,百川智能已深耕醫療,零一萬物則轉向為企業部署定製解決方案。這些揭示一個趨勢:曾經硝煙瀰漫的“百模大戰”落下帷幕,等待參與者的是一場圍繞真實場景滲透、產業生態建構與應用價值深挖的耐力賽。自1956年達特茅斯會議以來,人工智慧已走過70年曆程。如今,“技術進化”和“場景落地”的雙重變革,推動人工智慧向更廣闊疆域拓展。張亞勤認為,人工智慧正向智能體AI加速演進。智能體AI能夠像人一樣設定任務、規劃實現路徑、試錯反饋,具有自主性、能舉一反三和長期記憶三個特徵。如果說聊天機器人是“會說話的字典”,智能體AI就是“能自主幹活的管家”。中國科學院軟體研究所研究員黃進表示,未來AI不僅能聽懂指令,還能“看”懂畫面、“聽”懂語氣,成為具備綜合認知能力的“全能感知者”。“智能體是在大模型基礎上的工程化增強,極大拓展AI能力邊界。”中國信通院人工智慧研究所所長魏凱表示,不過智能體在可靠性、上下文記憶和長程任務等方面還需要提升,距離大規模應用仍有距離。張亞勤等人還認為,AI的創新前沿將突破數字世界的邊界,未來的AI將是資訊智能、物理智能和生物智能的融合。AI發展下一站是進入物理世界。1月,中國一款具身智能模型在全球統一標準下獲得第一。業界有評價認為,這意味著中國團隊訓練出的機器人“大腦”,具備了在物理世界理解和執行任務的能力。中外專家認為,AI正在與真實世界互動中建構理解和模擬物理規律的“世界模型”。物理智能將賦予AI在真實世界中感知和行動的能力,如機器人能自主完成複雜任務,智能駕駛從容應對複雜路況。AI不僅是數字世界的“思考者”,也將逐漸成為物理世界的“行動者”,更遠的未來則會成為生命世界的“探索者”。算力建設:系統升級加速協同2025年,一家初創公司發佈大模型新產品,市場反響超預期,導致預留伺服器幾分鐘內被擠爆,系統幾近癱瘓。危急關頭,一家基礎設施服務商無問芯穹公司利用平台技術服務,讓各地算力資源像“空中加油”一樣,為這家公司續上計算能力,確保了產品發佈的關鍵窗口。“我們希望未來算力就像自來水,打開能用、關上會停,不用關心它從那裡來。”公司聯合創始人夏立雪描述這樣的願景。無問芯穹公司位於上海,公司成員平均年齡32歲。他們把不同廠商、不同架構的AI晶片高效融通起來,就像搭建“立交橋”,充分利用分散的算力資源。算力,計算裝置或系統處理資料、執行運算任務的速度與規模能力,通常分為基礎算力、智能算力、超算算力。AI依靠的是智算,它不只是晶片的堆砌,而是一個由硬體、軟體、能源與網路精密協作的系統。AI算力就像一支超級工程兵團:GPU等計算晶片是執行硬核任務的“重武器”,高速網路是讓各兵種高效協同的“資訊高速公路”,儲存系統是隨時呼叫的“戰略物資庫”,軟體框架與演算法則是統籌全域的“調度指揮中心”。而一切運轉都離不開基礎保障:電站確保電力“彈藥”持續供應,供給液冷系統是戰士的“降溫服”。AI時代,算力就是新石油,AI算力中心是提煉和輸送石油的超級工廠。中國工信部資料顯示,中國已建成萬卡智算叢集42個,智能算力規模超過1590 EFLOPS,位居全球前列。業界認為,中國算力發展將繼續呈現“政府頂層設計+市場創新活力”雙輪驅動特徵。產業架構將從分散走向全國一體化,是未來算力發展的明顯特徵。東數西算工程已形成覆蓋東中西部的8大樞紐節點、10個資料中心叢集,其中8大樞紐節點已建成智算規模超過全國智算總量的80%。“十五五”規劃建議提出推進“全國一體化算力網”,中國國務院《關於深入實施“人工智慧+”行動的意見》強調“強化智能算力統籌”,指明未來算力發展將加強高效協同。中國工信部賽迪院電子所副所長馬曉凱認為,算力網建設呈現集約化、一體化、協同化、價值化等特徵,算力資源正在向樞紐節點集聚,跨地域調度平台逐步完善,政府引導、市場運作的協同機制正在建立,算力與電力加快協同。隨著需求激增,智算中心正經歷變革。中國信通院雲端運算與巨量資料研究所副所長李潔認為其將向算力高密化、叢集規模化、綠色低碳化方向演進,算力中心單機架功率與算力密度將逐漸提升,算力中心間協同聯動能力強化,規模化算力叢集將加快建構。在業界,更大規模的萬卡乃至百萬卡級叢集將成為支撐兆參數模型訓練的基礎。比如,從2011年啟動研發崑崙芯的百度集團,去年11月發佈新一代崑崙芯M系列及天池超節點,計畫將單一智算叢集規模從3萬卡推向百萬卡等級。硬體層面,不僅是晶片研發,還有通過專用積體電路、存算一體等新架構實現技術突破,建構軟硬體協同生態。頭部科技公司正打造能相容多種中國國產晶片的異構計算平台。應用層面,算力加速從科技企業走向千行百業。今年,上海、珠海等地已宣佈發放算力券,降低中小企業使用智能算力的門檻,引導算力資源流向工業製造等實體經濟領域。電力,被業界稱為“算力的盡頭”。中國信通院報告顯示,2024年中國資料中心用電量佔社會用電量比例1.68%,並提出未來高中低三種差異化發展場景,按照中速增長,預計到2030年底這一比例將達3%左右,全國資料中心用電量將突破4000億千瓦時;而按照高速增長趨勢,或將突破7000億千瓦時。“算電協同”從趨勢上升為戰略必然。國家引導算力向西部可再生能源富集區佈局,打造綠色算力基地。企業也積極探索綠電直供、分佈式新能源等模式,騰訊的資料中心去年綠電佔比已達80%。一些企業傾向將即時結算、即時推理等對時延要求高的算力就近部署,對時延要求不高的冷資料儲存等業務部署在西部。東西部之間的網路傳輸成本,以及因時延帶來的業務損耗,可能會抵消一部分電價優勢。專家表示,通過網路技術最佳化、業務智能調度,以及電力系統的靈活性互動,實現整體社會成本最優,將是算力基礎設施核心競爭力所在。展望算力前景,李潔認為“我們不僅追求硬體性能的突破,也關注從硬體到軟體、從基礎設施到綠色能源的系統性創新”。這場系統性升級,將決定中國如何把“新石油”轉化為驅動智能時代的澎湃動力。資料探勘:從規模導向轉為質量與專業化導向在保定,工程師們標註自動駕駛車輛在雨雪中的互動軌跡,建構研究華北地區城郊複雜路況的互動資料集;在成都,醫學專業學生標記CT影像以建構肝癌療效預測資料庫;在海口,資訊技術專業學生分析記錄水果生長的無人機影像,用於智能澆灌和採摘系統……最近,在某招聘平台,註明“重點大學本碩博優先”的AI資料標註員崗位,月薪最高接近2萬元。因AI應運而生的資料標註行業,正從以往勞動密集轉向知識密集。10年前,資料標註公司常落戶於中西部地區,受教育不多的人們,會用滑鼠就能完成“看圖貼標籤”。隨著生成式AI的突破和落地千行百業,越來越需要挖掘沉澱於行業企業的資料和專業人士的經驗,並將經驗轉化為AI可理解的“資料燃料”。資料對AI有多重要?在AI三要素中,演算法像設計圖,定義AI學習的方法和邏輯;算力是引擎,提供計算的能力;資料則像人類學習所需要的書本和經驗。當演算法因規模擴張而邊際效益遞減、算力因技術開源而日益普及時,AI技術的競爭焦點正轉向更基礎也更難複製的要素——高品質資料。魏凱說,訓練行業模型解決垂直行業裡的深度問題,需要高品質的行業資料集。“比如,放射科醫生看片子裡有沒有結節,靠的是數十年的醫學經驗,AI看片子也需要醫生教它。現在的資料標註要往縱深發展,把行業的深度知識、專家經驗轉化為能夠被機器學習的樣本,需要標註加工。”高品質資料從那來?簡而言之,資料標註通過提取特徵、分類、註釋和標籤化等操作,將人類的知識與思維邏輯轉化為機器可識別的形式,這是建構高品質人工智慧資料集的關鍵環節。經標註形成的高品質資料能提升垂類大模型在專業領域的性能。中國資料生產總量佔全球四分之一多。中國擁有全球最大的網際網路使用者群體,擁有全門類的工業體系,從原材料開採、中間品加工到終端產品製造的全要素、全過程、全環節資料成為寶貴資源。但另一面,很多人有這樣的經歷:在A醫院做的檢查,其結果並不被B醫院接受,原因在於醫療資料標準不統一,且涉及極高的隱私風險,導致資料無法跨院流動。中國工信部賽迪院信軟所所長韓健認為,資料價值密度不均、資料標準參差不齊、資料流通壁壘重重,導致大量資料“存而不用”,不同部門、不同企業的資料像一個個“孤島”,“不敢傳”(怕洩密)、“不願傳”(怕喪失競爭優勢)、“不會傳”(缺乏技術標準)。難題正在破解。隨著資料被明確為關鍵生產要素,國家資料局掛牌,《“資料要素×”三年行動計畫(2024—2026年)》等相繼出台,旨在培育資料產業,打造高品質資料集。國家資料局指導成都、合肥、瀋陽等7城市建設資料標註基地,先行先試。截至2025年第三季度,形成醫療、工業、教育等行業的高品質資料集超過500個,帶動資料標註相關產值163億元。資料集建設已從通用基礎資料集轉向行業高品質資料集。中國信通院對資料標註企業的調研結果顯示,78%的企業以行業資料集供給為主,重點是交通運輸、醫療健康、教育教學、工業製造等領域。業內人士認為,圍繞資料的進化今年將進入更深層次。從AI技術發展看,隨著模型訓練進入深水區,資料需求持續攀升,但單純堆量的方式已難以為繼,資料訓練密度和利用效率成為新焦點;資料集建設重點從追求規模轉向質量躍升,智能生成、專業細分、合規治理推動破解資料瓶頸。從AI落地應用看,高品質、專業化的行業資料集將成為高價值資源,尤其是在工業、金融、醫療等領域。同時,合成資料技術將越來越普及——當現實資料難以獲取或涉及隱私時,需要借助AI技術生成符合物理規律和業務邏輯的訓練資料,從而突破資料瓶頸。多位專家認為,AI應用到千行百業後,資料有望成為新的中國優勢,因為中國工業門類齊全、數字經濟發達,建成全球規模最大的5G網路,新能源汽車等行業處於世界前列。魏凱表示,未來的關鍵是充分挖掘利用中國在製造業和網際網路等優勢領域中積累的“資料金礦”,形成“業務產生資料、資料訓練AI、AI反哺業務”的良性循環。中國人工智慧學會會士、香港科技大學(廣州)協理副校長熊輝說,資料驅動AI最佳化,進而提升產業,產生更多資料,形成閉環。中國全門類的工業體系提供極其豐富的應用場景,這是形成資料飛輪的巨大優勢。產業賦能:驅動中國製造加快轉型升級一家有70多年歷史的電池廠應用AI,會發生什麼?研發環節採用AI配方大模型,高效開發多特性電池;生產通過AI即時聯動裝置與工藝,實現預警,提升穩定性;檢測引入AI雲系統,以演算法替代人工,保障大批次生產下的質量一致性。這家工廠的變化折射一個趨勢:AI並非高科技產業的專屬,它正成為傳統產業轉型升級的重要驅動力。“美國聚焦閉源,而中國主導開源市場,這一格局直接推動中國企業快速切入AI+產業。”熊輝說。國家資料局的資料顯示,2024年初中國日均Token消耗量1000億,而截至2025年6月底,中國日均Token消耗量突破30兆。一年半時間增長300多倍,反映出AI應用落地的快速增長。Token,中文叫“詞元”,是大語言模型處理資訊的基本單位。模型輸出每一個答案都消耗Token。來自頭部大模型企業的資料也印證這一趨勢。2025年12月,豆包大模型日均Token呼叫量突破50兆,同比增長超10倍,累計使用量超兆Token的企業客戶突破100家。業界人士預測,未來的Token消耗將呈現“二八格局”——約80%來自企業,20%來自個人使用者。“大模型會率先在數位化基礎較好、數位化人才相對聚集的行業落地,比如網際網路服務、金融、政務等資訊化技術好的領域;在物理資產較多、數位化相對滯後的傳統產業則會落地較緩。”魏凱分析說。中國信通院的報告顯示,AI在不同工業領域呈現差異化滲透特徵,其中電子資訊、消費品、以汽車為代表的裝備製造等行業在應用中佔重要份額,鋼鐵、石化、能源電力等行業形成較好應用態勢。中國工信部賽迪院產業所所長王昊認為,AI將以小步快跑態勢在製造業落地,從完成簡單任務到實現高級功能。2026年AI大規模落地製造業方面,較看好汽車、機器人等先進製造企業,AI也將賦能提升裝備與消費產品的智能化水平。聚焦製造業,會發現AI應用在三個維度展開:研發設計、生產製造、營運管理。“目前,大模型應用超過40%聚集在客服等營運管理環節,30%至40%應用於研發環節,原本處於‘中間緩’的生產製造環節AI應用比例從2024年的19.9%提升到2025年的25.9%,未來還將提升。”魏凱說。這種分佈反映AI在製造業滲透的漸進性特徵——從相對標準化的管理環節向核心的生產製造環節延伸。張亞勤表示,相比第一、二次工業革命中國“零參與”、第三次以資訊時代為標誌的工業革命是“跟隨者”,在AI作為技術底層的第四次工業革命中,“中國完全有可能走在前列”。這一判斷是業內共識。其背後,是基於中國的獨有優勢:全球最完整的工業體系、海量應用場景資料、強大的工程化能力和龐大的市場需求。這些要素共同構成中國製造業在AI時代實現跨越式發展的基礎。國家部署為企業助力。去年,《關於深入實施“人工智慧+”行動的意見》提出加快人工智慧在設計、中試、生產、服務、營運全環節落地應用;今年1月,工業和資訊化部等八部門印發《“人工智慧+製造”專項行動實施意見》,提出到2027年推動形成特色化、全覆蓋的行業大模型,推廣500個典型應用場景。中國工信部部長李樂成表示,將深入實施“人工智慧+製造”專項行動,統籌佈局通用大模型和行業大模型,培育一批重點行業智能體、智能原生企業;加快製造業智能化升級,挖掘人工智慧應用場景,以萬千“小場景”匯聚形成融合“大場面”。熊輝表示,傳統產業進行AI改造的核心是將產業問題抽象為AI問題,並實現低成本部署。以廣州的小家電產業叢集為例,可利用產業優勢,快速形成資料化、智能化閉環,大小模型配合,提升終端智能化水平。超600萬家中國製造業工廠,將在紛繁多樣的場景擁抱AI。這不僅是一場技術革命,更是一場深刻的生產方式變革。社會價值:深刻改變治理方式和運行規則重慶市潼南區桂林街道梨樹村,智能監測系統靜靜守護著85歲的獨居老人。當系統發現異常,從預警到網格員上門僅需15分鐘。這是AI融入政府公共服務的一個普通場景。從事後處置轉向事前預警,從“人海戰術”轉向智能調度,人工智慧的觸角以前所未有的廣度和深度,嵌入社會運行的一道道肌理。AI帶來的轉變推動城市治理更智能、更精準。在四川德陽,“城市大腦”的演算法以分鐘級發現路面問題;在甘肅臨洮,大橋上的AI可識別行人翻越欄杆、靠近水流等行為,與警務等部門聯動,挽救了20多條生命。重塑治理理念,人機協同的治理新模式應運而生。中國信通院政策與經濟研究所副所長李強治認為,中國正推動AI治理“下沉場景賦能”,將AI技術與政務、公共安全等領域深度融合。這股力量也滲透進日常生活的毛細血管——消費。AI萬能搜、AI幫我挑、AI試衣、AI清單……去年的“雙十一”購物節,淘寶天貓一口氣推出6款AI導購應用。“平台和產品變得更懂消費者。這不再是簡單的‘猜你喜歡’,而是‘懂你需要’,消費起點從使用者的需求清單逐漸變為AI的演算法推薦。”淘天集團研究中心主任徐飛說。AI正錨定“需求”著力滲透,實現從“技術可行”到“社會需要”。一位蔚來車主在車裡說句“想吃麥當勞”,車載系統就能自動定位到最近門店,並根據駕駛路線與會員身份推薦套餐。這是麥當勞中國與蔚來汽車聯合推出的中國首個車載AI語音點餐系統。麥當勞中國首席資訊技術與體驗官陳世宏表示,AI技術不斷滲透到消費場景,拓展消費邊界。《關於深入實施“人工智慧+”行動的意見》提出,推動智能終端“萬物智聯”,培育智能產品生態,大力發展智能網聯汽車、人工智慧手機和電腦、智慧型手機器人、智能家居、智能穿戴等新一代智能終端,打造一體化全場景覆蓋的智能互動環境。中金公司2026年展望報告顯示,消費電子的“端側AI時代”已經來臨,今年有望成為AI消費終端大規模普及的關鍵年份。新一輪消費電子更新換代潮或將到來。愛奇藝AIGC科技創意指導王慶豐表示,AI正推動消費從“需求牽引供給”逐步到“供給定義需求”,這背後是AI從表層效率最佳化切入,逐步滲透到體驗重構,甚至重塑著深層價值體系。AI重新定義價值,最深遠的是挖掘人的價值。學日語出身的劉典,在AI爆火的這兩年決定辭職攻讀計算語言學。“AI降低了跨界難度,很多知識門檻並沒有想像中高。”他說。AI向各行各業滲透,先行者靠它撬動更大價值。上海漕河涇開發區AI校友中心有超60家AI初創企業,創業者平均28歲。數宗科技主攻“多模態知識圖譜”,其創始人丁天是一位愛寫詩的文科生,他認為,AI時代,技術正從難以踰越的壁壘變為人人可呼叫的資源。“氛圍程式設計”入選《柯林斯詞典》2025年度詞彙,從“敲程式碼”到“聊程式碼”,AI逐漸滲透工作流程。騰訊相關負責人表示,騰訊有超90%工程師正在借助AI編碼,並基於自身實踐推出支援多種形態的專業工具CodeBuddy(雲程式碼助手),面向企業及程式設計師提供服務。AI輔助讓工程師專注於創新,成為能力的放大器。隨著AI重新定義工作和技能,傳統教育勢必轉型。在深圳職業技術大學的課堂上,AI正在手把手地教學生程式設計。校長許建領說,成功的“AI+教育”不是讓學生依賴AI獲取答案,而是培養他們使用AI創新。學生核心競爭力不再是單一的操作技能,而是複雜問題解決能力、“AI+技能”復合素養和可持續學習的自驅力。AI時代,每個人都可以挖掘自己的潛力,專注於唯有人類才能駕馭的洞察與創造。安全防範:護欄建設將趨嚴趨實最近,美國《韋氏詞典》評選出2025年度詞彙:“slop”(AI垃圾內容)。不約而同,英國《經濟學人》雜誌、澳大利亞《麥考瑞詞典》評選的年度詞彙也是它。這詞被一些網友翻譯為“AI泔水”,指質量低下、無意義或粗製濫造的AI圖像和文字等內容。詞語背後是席捲全球的現象:AI生成的荒誕而無意義的視訊、圖像和文字充斥網際網路。這警示人們,AI技術突飛猛進的同時,其日益增多的安全隱患與倫理挑戰不容忽視。“一家公司與某三甲醫院合作開發AI健康助手,最初設計採用一名真實醫生的形象與聲音。我向這家公司提出可能誤導患者,透支患者對醫生的信任。”中國科學院自動化研究所研究員、聯合國人工智慧高層顧問機構專家曾毅談到這樣一個案例。在曾毅等人建議下,這家公司推出的應用以卡通人物為形象,強化了其助手定位。曾毅說,越來越多AI企業開始思考以人文溫度校準技術。AI有那些風險?業內專家普遍將其總結為資料隱私與安全邊界模糊、技術濫用與虛假資訊產生、演算法偏見與決策“黑箱”等方面。張亞勤認為,突出的是資訊智能領域的風險,AI可以被利用生成虛假資訊、深度偽造並進行欺詐,還有生成式人工智慧的智慧財產權問題。當未來大模型、智能體與無人車、機器人等連接起來,智能體之間的協作和博弈如果出現失控或被惡意濫用,造成的風險更大。曾毅舉例,“越獄攻擊”,即通過精心設計提示詞繞過安全約束,並引發有害、偏見或不道德輸出的對抗性攻擊,是當前大語言模型安全領域的嚴峻挑戰。在AI技術狂飆突進時,如何為它裝好“方向盤”和“剎車片”?中國不斷加固安全護欄,走出一條從柔性指導到不斷加強法治保障的特色治理之路——《關於深入實施“人工智慧+”行動的意見》提出“形成動態敏捷、多元協同的人工智慧治理格局”;中央網信辦、國家發展改革委、科技部等多部門協同發力,推動人工智慧治理從理念走向落地。“十五五”規劃建議提出,加強人工智慧治理,完善相關法律法規、政策制度、應用規範、倫理準則。業界認為,這為中國未來五年人工智慧健康發展明確方向、留足空間、築牢基礎。去年底公佈的《人工智慧擬人化互動服務管理暫行辦法(徵求意見稿)》提出,擬人化互動服務提供者應當建立應急響應機制,發現使用者明確提出實施自殺、自殘等極端情境時,由人工接管對話。“這一暫行辦法公佈並向社會徵求意見,體現中國人工智慧政策‘自適應性’與監管框架的與時俱進。”曾毅說。既有“軟性”政策指導,也有“硬性”法律保障。新修改的網路安全法於今年施行,其中規定,完善人工智慧倫理規範,加強風險監測評估和安全監管。“規範發展”已成為AI業界共識,從研究機構到企業平台均在探索建立健全AI安全倫理體系,明確資料使用、責任界定等關鍵規則。2024年,中國信通院啟動“大規模預訓練模型(文字生成功能)安全認證”,標誌著中國開始對大模型內容安全進行系統化、標準化認證。一些機構和企業也在牽頭制定行業標準,如騰訊和中國信通院聯合發佈中國首個金融行業大模型標準等。AI發展需要各國共同推進、協同治理。參與起草《人工智慧全球治理行動計畫》的清華大學人工智慧國際治理研究院院長薛瀾表示,建構一個公平、公正、綜合、平衡的人工智慧全球治理體系,關乎全人類的共同發展。AI是驅動發展的新質生產力,也是影響人類未來命運的新生力量。如何加速技術應用以增加社會福祉,同時加強人文關懷化解潛在風險,這既關乎發展,也關乎未來。中國AI技術的發展與應用令人期待,需要全社會的深度參與。 (新華社)
對話Surge AI創始人Edwin Chen:不融資、不炒作,百人團隊如何4年做到10億美金?
Surge AI 更像研究實驗室,注重好奇心、長期激勵與學術嚴謹性。簡介Edwin Chen是深耕AI資料領域的顛覆式創業者,以Surge AI創始人兼CEO的身份,走出了一條逆勢生長的商業路徑。他帶領不足100人的團隊,4年實現營收破10億美元,全程未接受外部VC投資、自籌資金且盈利至今,成為全球成長最快的AI資料公司。在本期Lenny播客對話中,他毫無保留地拆解核心邏輯:高品質資料的定義絕非“堆人力”,而是像“養育孩子”般注入價值觀與創造力;直言行業對基準測試的盲目追捧正在帶偏AGI方向,揭秘強化學習環境如何成為AI訓練的下一代核心;更痛批矽谷融資炒作套路,給出“專注產品、拒絕跟風”的創業箴言。此外對話中更直擊行業深層痛點:模型差異化的未來趨勢、對於AI目標函數的思辨,以及資料公司如何影響全球AI發展方向。這場對談既有硬核的技術邏輯拆解,也有顛覆傳統的商業認知,想要讀懂AI資料領域的底層邏輯與創業本質,這些乾貨滿滿的細節裡藏著關鍵答案。本期目錄4年營收10億美元神話創業叛逆:拒絕矽谷套路的增長邏輯高品質資料與模型領先的密碼技術爭議:基準測試的陷阱與AGI航向風投之外的創業正道強化學習重塑AI訓練未來模型差異化與AI趨勢冷暖AI訓練的使命與創業初心4年營收10億美元神話主持人Lenny:我們先從你取得的驚人成就說起吧。不到四年營收破10億美元,團隊僅60-70人,且完全自籌資金、未接受任何風投,真正實現了AI賦能小團隊的願景。未來會有更多公司做到這一點嗎?AI在那方面最能幫你們發揮槓桿作用?Edwin Chen:是的,我們去年營收超過10億美元,而員工還不到100人。我認為未來幾年,我們會看到比例更驚人的公司出現——比如人均營收1億美元。AI持續升級會讓這一比例成為必然。Surge AI創始人Edwin Chen(圖片來源:YouTube@Lenny's Podcast)我以前在多家大型科技公司工作過,總覺得其實裁掉90%的人,公司運轉反而會更快,因為最優秀的人才不會被各種瑣事幹擾。所以當我們創辦Surge時,就想以完全不同的方式打造它:組建一支超精簡、超精英的團隊。而且不可思議的是,我們真的做到了。我覺得有兩個關鍵因素在共同作用:一是人們逐漸意識到,不一定非要打造龐大的組織才能成功。二是AI帶來的這些效率提升,會讓創業迎來一個黃金時代。我最期待的是,未來的公司不僅規模會變小,形態也會發生根本性改變。員工少意味著所需資金少,資金少就不需要融資。所以,未來的創業者不再是那些擅長遊說、炒作的人,而是真正精通技術或產品的人。產品也不再是為了迎合營收目標和風投喜好而最佳化,而是由這些小型專注團隊打造的、更具深度和創意的作品——他們是在打造自己真正在乎的東西,是真正的技術創新。創業叛逆:拒絕矽谷套路的增長邏輯主持人Lenny:你們做了很多逆勢而為的事,比如不在領英發爆款帖子,不在推特上持續宣傳Surge。我想大多數人直到最近才聽說過你們,然後你們突然就以“增長最快的十億美元營收公司”的身份亮相了。你們為什麼要這麼做?Edwin Chen:我們從一開始就不想參與矽谷的那套玩法,我一直覺得那很荒謬。想想看,你小時候的夢想是自己從零打造一家公司,每天沉浸在程式碼和產品中?還是向風投解釋自己的每一個決策,陷入公關和融資的無盡循環?不參與這些玩法確實讓我們的路更難走,因為如果選擇融資,你自然會融入矽谷的“產業生態”——風投會在推特上宣傳你,你會登上TechCrunch的頭條,因為高估值融資而被各大媒體報導。而我們只能靠打造出10倍優秀的產品,通過研究人員的口碑傳播獲得成功。但這也讓我們的客戶群體變得非常精準:他們真正理解資料的價值,也真正在乎資料質量,並且清楚優質資料能讓他們的AI模型變得更強大。因為這些早期客戶一直在幫助我們,給我們的產品反饋,所以與他們在使命上的高度契合,對我們早期的發展至關重要。他們購買我們的產品,是因為認可產品的獨特價值,是因為產品能真正幫到他們,而不是因為在社交媒體上看到了宣傳。所以這條路雖然更難,但對我們來說是正確的選擇。高品質資料與模型領先的密碼主持人Lenny:這對創業者來說是個很有啟發的故事——不用整天在推特上宣傳,不用融資,只要埋頭打造產品就行。我非常喜歡Surge的創業故事。能不能簡單介紹一下你們是做什麼的?Edwin Chen:我們本質上是教AI模型分辨好壞。我們利用人類資料對模型進行訓練,推出了很多相關產品。比如SAT、RHF、評估標準、驗證器、強化學習環境等等,同時我們也會衡量模型的進步程度。所以說到底,我們是一家資料公司。主持人Lenny:你一直強調,資料質量是你們成功的關鍵。那麼要打造高品質資料,需要具備那些條件?你們做了那些與眾不同的事?而其他人又忽略了什麼?Edwin Chen:我覺得大多數人根本不理解這個領域中“質量”的真正含義,他們以為只要投入大量人力就能獲得優質資料,但這完全是錯誤的。我舉個例子吧:假設你想訓練一個模型寫一首關於月亮的優秀詩歌,什麼才是“高品質”的詩歌?如果對質量沒有深入思考,你可能會設定這樣的標準:“這是一首詩嗎?有沒有8行?有沒有出現‘月亮’這個詞?”只要滿足這些條件,你就覺得這是一首好詩。但這和我們追求的質量相去甚遠。我們想要的是能拿諾貝爾獎等級的詩歌——它是否獨特?是否充滿精妙的意象?是否能打動你、觸動你的心靈?這才是我們定義的高品質詩歌。這種對質量的深度追求其實非常困難,因為它難以衡量,主觀、複雜且豐富,同時也設定了極高的標準。所以我們必須打造全套技術來衡量這種質量——比如收集關於工作人員的數千個訊號,以及每個項目、每項任務的數千個訊號。到最後,我們能精準判斷出某個人擅長寫詩、寫散文還是寫技術文件。我們會收集關於工作人員背景、專業技能的所有訊號。不僅如此,還會關注他們完成任務時的實際表現,然後利用這些訊號來判斷他們是否適合某個項目,以及他們是否在推動模型進步。打造這些衡量技術確實很難,但這正是我們希望AI能做到的——所以我們對質量有著極致且深刻的追求。主持人Lenny:所以你的意思是,你們會深入理解每個垂直領域中“質量”的定義,對嗎?比如你們會僱傭極具詩歌天賦的人,再結合評估標準,來判斷作品是否優秀?這背後的運作機制是怎樣的?Edwin Chen:具體來說,我們會收集工作人員在平台上操作時的數千個訊號——比如鍵盤敲擊頻率、回答速度、同行評審結果、程式碼標準,同時我們也會用他們的輸出結果來訓練我們自己的模型,觀察這些輸出是否能提升模型性能。這有點像Google搜尋判斷網頁質量的邏輯,主要分為兩部分:一是剔除最差的內容,比如垃圾資訊、低品質內容、無法載入的頁面,這有點像內容稽核。二是發掘最優質的內容,比如找出最優質的網頁,或者最適合某個任務的人。這些人不只是寫得出高中水平的詩歌——他們不會機械地按照指令堆砌詩句,而是能寫出真正觸動人心的作品。主持人Lenny:Claude在程式碼編寫和文字創作方面,長期以來都比其他模型優秀得多。事實上,所有AI程式設計產品都曾基於Claude。是什麼讓Claude能保持這麼久的領先?僅僅是訓練資料的質量,還是有其他原因?Edwin Chen:我覺得有多個因素。首先,資料確實是關鍵——很多人沒有意識到,所有前沿實驗室在選擇模型訓練資料時,都面臨著無數選擇。模型訓練要明確一系列問題:是否用人類資料、如何收集、對內容的具體要求(比如程式設計領域側重前端還是後端,前端更看重視覺、效率還是正確性),以及合成資料的佔比、對基準測試的重視程度。不同公司對此的權衡不同:有的為公關最佳化基準指標,有的更看重實際任務效果。模型後期訓練更像藝術而非科學,開發者的審美和洞察力會影響訓練資料組合。因此,資料很重要,模型的最佳化目標函數同樣關鍵。主持人Lenny:這太有意思了。也就是說,主導這項工作的人的審美,會影響他們對資料的選擇和投喂。這再次凸顯了優質資料的價值——Anthropic正是憑藉更好的資料獲得了巨大的增長和成功。Edwin Chen:沒錯。而且這還只是程式設計一個垂直領域,文字創作領域也是類似的情況。AI看似是冰冷的二進制程式碼,但人類的判斷和審美,依然是這些產品成功的關鍵因素。主持人Lenny:完全同意。真正有審美和洞察力的前沿實驗室會意識到,好詩不能簡化為一系列固定的標準,他們會考慮那些隱含的、微妙的特質。我想這正是他們能脫穎而出的原因。技術爭議:基準測試的陷阱與AGI航向主持人Lenny:你提到了基準測試。很多人都有這樣的困惑:現在很多模型在幾乎所有STEM領域都表現得比人類還好,但對普通人來說,這些模型似乎並沒有在持續變得更智能。你對基準測試的信任度有多高?它們與AI的實際進步相關性強嗎?Edwin Chen:我完全不信任基準測試,主要有兩個原因。第一,很多人——包括行業內的研究人員——都沒有意識到,這些基準測試本身往往是有問題的,比如答案錯誤、存在諸多漏洞,但大多數人並沒有發現這些問題。第二,這些基準測試通常都有明確的客觀答案,這使得模型很容易“鑽空子”最佳化,而這與現實世界的混亂和模糊性完全不同。我常說一個很有意思的現象:這些模型能贏得國際數學奧林匹克競賽金牌,卻連解析PDF都困難重重。這是因為雖然國際數學奧林匹克競賽對普通人來說很難,但它具有客觀性,而解析PDF往往沒有這種客觀性。所以前沿實驗室更容易讓模型在這些基準測試中“鑽空子”最佳化,而非解決現實世界中那些混亂、模糊的問題。因此,基準測試與AI的實際進步之間缺乏直接相關性。主持人Lenny:你這麼一說,我就明白了——衝擊這些基準測試有點像行銷手段。比如Gemini 3剛發佈時,宣稱在所有基準測試中排名第一,是不是就是這樣?他們只是訓練模型在這些特定任務上表現出色?Edwin Chen:是的,這主要有兩方面原因。一方面,這些基準測試有時會以某種方式“洩露資訊”,或者前沿實驗室會調整模型在基準測試中的評估方式——比如調整系統提示詞、調整模型運行次數等,從而“操縱”測試結果。另一方面,如果你優先最佳化基準測試而非現實世界的任務,模型自然會在基準測試中表現越來越好,這本質上也是一種操縱。主持人Lenny:既然如此,你如何判斷我們是否在向AGI邁進?如何衡量這種進步?Edwin Chen:我們真正重視的衡量方式是人類評估。比如,我們會讓人類標註員與模型進行跨領域的對話——讓諾貝爾獎得主等級的物理學家與模型討論前沿研究,讓教師與模型探討課程設計,讓大型科技公司的程式設計師與模型解決日常工作中的問題。我們的標註員都是各自領域的頂尖專家,他們不會淺嘗輒止地瀏覽模型的回答,而是會深入研究。他們會驗證程式碼的正確性,核對物理方程的精準性,從精準性、指令遵循度等多個維度對模型進行深度評估——這些都是普通使用者不會做的。當你在ChatGPT中收到“比較兩個回答”的彈窗時,大多數人只是憑感覺選擇看起來更順眼的回答,而我們的標註員會仔細分析每個回答的各個維度。所以我認為,這種人類評估比基準測試或隨機的線上A/B測試更可靠。主持人Lenny:我很高興看到人類在其中依然扮演著核心角色。未來會不會有一天,我們不再需要這些人類標註員了?比如AI已經足夠智能,我們已經從人類身上學到了所有能學的東西。Edwin Chen:我認為除非我們實現了AGI,否則這種情況不會發生。從定義上來說,在實現AGI之前,模型還有很多需要從人類身上學習的東西。所以我覺得這一天不會很快到來。主持人Lenny:既然說到了AGI,你認為我們距離AGI還有多久?是幾年還是幾十年?Edwin Chen:我更傾向於較長的時間線。我認為人們沒有意識到,從80%的性能提升到90%、99%、99.9%,每一步都越來越難。在我看來,未來一兩年內,模型可能會自動化完成普通L6級軟體工程師80%的工作,但要提升到90%可能還需要幾年時間,再提升到99%又需要更長時間,以此類推。所以我認為,我們距離AGI還有十年甚至幾十年的時間。主持人Lenny:你有個很尖銳的觀點:很多實驗室在推進AGI的方向上是錯誤的。基於你在推特、Google和臉書的工作經歷,你能具體說說嗎?Edwin Chen:我擔心我們沒有打造出能推動人類進步的AI——比如治癒癌症、消除貧困、探索宇宙這些宏大目標——反而在最佳化“劣質AI”。說白了,就是讓模型迎合那些在雜貨店買八卦小報的人的喜好,教模型追逐多巴胺而非真相。這和我們之前聊的基準測試有關。我舉幾個例子:比如行業排行榜LM Arena,普通人僅花兩秒瀏覽選花哨回答,模型靠誇張表達、多表情符號、長篇幅就能上榜,那怕內容胡編亂造。前沿實驗室為公關、企業客戶認可,研究人員為升職,不得不迎合這類排行榜,而去犧牲模型精準性。我認為這些負面激勵正在把AI推向錯誤的方向。我還擔心AI最佳化“參與度”的趨勢。我以前在社交媒體行業工作過,每次我們最佳化參與度,都會出現糟糕的結果——點選誘餌、比基尼照片、大腳怪傳說、恐怖的皮膚病圖片充斥著使用者的資訊流。更令人擔憂的是 AI 最佳化 “參與度” 的趨勢。就像社交媒體曾出現的問題,模型靠吹捧使用者、迎合妄想打造資訊繭房,而矽谷痴迷於使用者時長,讓這些有根本缺陷的模型反而得分更高,負面激勵正把 AGI 推向錯誤方向主持人Lenny:所以你的意思是,AGI的發展之所以放緩,是因為這些實驗室關注了錯誤的目標函數——錯誤的基準測試和評估方式。Edwin Chen:沒錯。主持人Lenny:我知道你可能不方便偏袒任何一家實驗室,畢竟你和所有實驗室都有合作。但有沒有那家實驗室做得更好,意識到了這個錯誤方向?Edwin Chen:我一直非常欣賞Anthropic。我認為Anthropic在自己在乎什麼、不在乎什麼,以及希望模型呈現出怎樣的行為方面,有著非常堅定的原則,這讓我覺得他們的做法更具使命感。Anthropic CEO Dario Amodei(圖片來源:X@AnthropicAI)主持人Lenny:你覺得實驗室還有其他那些重大錯誤,正在阻礙AI的發展或讓AI走向錯誤的方向?除了追逐基準測試和過度關注參與度之外。Edwin Chen:我覺得問題在於他們打造的產品本身,以及這些產品對人類是有益還是有害。比如我經常會想Sora(OpenAI的文字生成視訊模型)——那些公司會打造Sora,那些不會?我自己心裡有答案,但我覺得這個問題的答案,恰恰能反映出這些公司想要打造什麼樣的AI模型,以及他們想要實現什麼樣的未來。右一為OpenAI創始人Sam Altman(圖片來源:X@sama)主持人Lenny:支援Sora的觀點是,它很有趣,人們需要它,能幫助公司創收、研發更好的模型,還能以有趣的方式生成訓練資料。Edwin Chen:核心問題是是否在乎實現目標的過程。就像不會為資助嚴肅報紙而賣八卦小報一樣,不擇手段雖可能達成目標,卻會引發負面後果,甚至偏離更重要的事,因此過程與目標同等重要。風投之外的創業正道主持人Lenny:你提到矽谷存在融資過多、回音室效應等問題,將其稱為 “矽谷機器”,還說這種模式難出有價值的公司,不走風投路線可能更成功。能否結合自身經歷,給創業者一些不同建議?畢竟他們常聽到要找知名風投、搬到矽谷的說法。Edwin Chen:我一直很反感矽谷的諸多創業信條,比如頻繁調整方向、用 “灰色手段” 追增長、快速招聘擴張等。我的建議是:不盲目調方向、不隨意擴張,不僱傭只為簡歷鍍金的人;專注打造唯有自身洞察力和專業知識才能實現的產品,堅守使命感,拒絕跟風追逐估值。創業應是為堅信的宏大理念承擔風險,即便因市場未準備好失敗,也比跟風賺快錢有意義。唯有堅守初心、拒絕誘惑、不輕易放棄,專注打造 “非你不可” 的公司,才可能打造出有價值、能改變世界的企業。如今不少人厭倦矽谷炒作,希望科技能向為有意義大目標努力的方向發展。主持人Lenny:我正在和一位我非常欣賞的風投Terrence Rohan合作一篇文章,我們採訪了五位在“世代級”公司早期就加入的人。他們的經歷和你說的完全一致:這些公司都有宏大的抱負,正如你所說,他們不會為了尋找產品市場契合度而隨意調整方向。所以你的觀點和我們的發現高度契合。Edwin Chen:沒錯。我認為你必須要有宏大的抱負,堅信自己的理念能改變世界,並且願意全力以赴去實現它。強化學習重塑AI訓練未來主持人Lenny:換個話題聊個逆勢觀點:著名 AI 研究者 Richard Sutton 在播客中提出 “痛苦的教訓”,認為 LLM 因學習方式限制是死胡同,會陷入停滯。你認為 LLM 能實現或超越 AGI 嗎?還是需要新的重大突破?Edwin Chen:我認為要實現AGI,還需要新的突破。我是這樣理解的:談到訓練,我更傾向於從“類生物”的角度思考——人類的學習方式有上百萬種,我們需要打造能模仿所有這些學習方式的模型。它們可能在側重點上有所不同,但我們需要讓模型具備人類的學習能力,確保它們有相應的演算法和資料來實現這種學習。因此,只要LLM的學習方式與人類不同,就需要新的突破。這就涉及到強化學習——這是我非常關注的領域,而且我越來越多地聽到,強化學習在模型後期訓練中變得越來越重要。主持人Lenny:你能幫大家解釋一下什麼是強化學習和強化學習環境嗎?為什麼它們在未來會變得越來越重要?Edwin Chen:強化學習本質上是訓練模型達成特定的獎勵目標。強化學習環境則是對現實世界的模擬——就像打造一個視訊遊戲,每個角色都有真實的故事,每個企業都有可呼叫的工具和資料,所有實體之間都能相互作用。比如,我們會模擬這樣的場景:一家初創公司有 Gmail 郵件、Slack 聊天記錄、程式碼庫這些東西,突然 AWS 和 Slack 都崩了,讓模型自己想辦法解決。我們會給模型佈置任務、設計難搞的場景,看它表現好壞來獎懲。強化學習環境有意思的點在於,能把模型在現實複雜任務裡的短板全暴露出來。很多模型在單獨的基準測試裡挺厲害,比如會用個工具、聽個單步指令,但一放到亂糟糟的現實裡就不行了。碰到模糊的Slack消息、沒見過的工具,還得正確操作、改資料庫,而且一步影響後面好多步,跟之前那種學術化的單步環境完全不一樣,模型常常會離譜的徹底翻車。所以我覺得,強化學習環境會變成模型重要的 “訓練場”,它模擬真實世界的情況,能幫模型在實際任務裡變厲害,而不是只在特意設計的環境裡表現好。主持人Lenny:我試著想像一下這個場景:本質上就是一個虛擬機器,裡面有瀏覽器、電子表格之類的工具,還有你們的網站。比如,給模型的任務是“確保surge.com正常運行”,然後突然網站當機了,目標函數就是找出當機原因並修復嗎?Edwin Chen:沒錯。目標函數可能是通過一系列單元測試,也可能是撰寫一份包含事件完整資訊的復盤文件——我們會設定各種不同的獎勵機制來判斷模型是否成功。所以本質上,就是給模型一個目標,讓它利用自己的所有智能去嘗試解決問題,過程中會犯錯,我們會引導它,對正確的行為給予獎勵。你說得對,這正是模型變得更智能的下一階段:強化學習環境專注於那些具有經濟價值的特定任務。Edwin Chen:強化學習環境和之前的SFT、RHF、評估標準這些學習方式不衝突,不是要替代它們,而是補充,讓模型多學一項技能。而且這時候不用專家直接和模型對話、糾錯打分了,而是讓他們設計強化學習環境。比如金融分析師會做電子表格、指定要用到的工具,再設定獎勵規則。這很像人類的學習方式:不斷嘗試,留下有用的方法,丟掉沒用的。主持人Lenny:你提到“軌跡”對強化學習非常重要——不僅僅是設定目標和看結果,還要關注過程中的每一步。你能解釋一下什麼是軌跡,以及它為什麼重要嗎?Edwin Chen:我認為很多人沒有意識到,有時候模型雖然得出了正確答案,但過程卻非常離譜。比如,它可能在中間步驟嘗試了50次都失敗了,最後只是隨機蒙對了答案;或者它的做法非常低效,甚至是通過“操縱獎勵機制”才得到正確答案。所以關注軌跡至關重要。而且有些軌跡可能非常長,如果只看最終結果,就會忽略模型在中間步驟的行為資訊。比如,有時候你希望模型通過反思自己的行為得出正確答案,有時候你希望它一步到位。如果忽略軌跡,就會錯失很多可以教給模型的重要資訊。主持人Lenny:模型進化過程中,那些後期訓練方法最能推動模型進步?評估、強化學習環境在其中扮演了什麼角色?現在我們是不是正朝著強化學習環境的方向發展?Edwin Chen:模型後期訓練最初是從SFT開始的。SFT是什麼意思呢?監督微調很像“模仿大師”——複製大師的做法。後來RHF(基於人類反饋的強化學習)成為主流,這就像“寫55篇文章,讓別人告訴你最喜歡那一篇”。過去一年左右,評估標準和驗證器變得非常重要,這就像“通過評分和詳細反饋學習自己的錯誤”——這也是評估的一種形式。評估通常包含兩個方面:一是將評估結果用於訓練(判斷模型表現是否良好,表現好就給予獎勵)。二是用評估來衡量模型的進步——比如有五個候選模型版本,通過評估選出最好的那個向公眾發佈。現在,強化學習環境成為了新的熱點,這是模型進化的下一個階段。主持人Lenny:很欣賞你們的商業路徑,從給企業提供高品質資料,到現在搭建虛擬機器和應用場景,核心就是適配實驗室的需求。Edwin Chen:沒錯。我真的認為,我們需要打造一系列產品,來反映人類上百萬種不同的學習方式。就像優秀作家不是靠死記硬背語法,而是靠閱讀、練習、反饋等多種不同方式成長一樣,AI 模型也需要上千種學習方式。畢竟神經網路和深度學習的靈感源於人類學習方式與大腦運作,要讓 AI 更智能,就得讓它越來越貼近人類的學習邏輯。主持人Lenny:Surge有一個獨特之處——你們有自己的研究團隊,這在同類公司中似乎很少見。你能談談為什麼要投入資源組建研究團隊,以及這個團隊帶來了那些成果嗎?Edwin Chen:這源於自身研究者背景,我更關注推動行業與研究社區發展,而非僅追求營收。我們公司有兩類研究者:一類是前沿部署研究者,他們與客戶深度協作,分析模型現狀、差距及改進方向,設計資料集、評估方法和訓練技術,助力客戶最佳化模型。另一類是內部研究者,他們的關注點略有不同:一是打造更合理的基準測試和排行榜,規避現有體系的誤導性;二是自研模型,探索優質資料與人才特質,研究訓練及評估技術,完善內部資料產品並明確 “高品質” 定義。主持人Lenny:這太酷了——通常都是實驗室有研究者推動AI進步,像你們這樣的公司擁有自己的研究者進行AI基礎研究,確實很罕見。Edwin Chen:沒錯。這主要是因為我從根本上就關心這些事情。我經常把我們公司看作一個研究實驗室,而不是一家初創公司——這也是我的目標。有點好笑的是,我一直說“我寧願成為陶哲軒(著名數學家),也不願成為華倫·巴菲特”。所以,創造能推動前沿發展的研究成果,而不僅僅是追求估值,一直是我的動力,而且這也確實奏效了。主持人Lenny:你提到你們在招聘研究者,有什麼想分享的嗎?你們在尋找什麼樣的人?Edwin Chen:我們尋找的是那些從根本上對資料充滿興趣的人——比如那些能花10個小時鑽研一個資料集、擺弄模型,思考“模型在這裡失敗了,它應該有什麼樣的行為”的人。我們希望他們能親身實踐,關注模型的定性方面,而不僅僅是定量指標——也就是能親手處理資料,而不只是關心抽象的演算法。模型差異化與AI趨勢冷暖主持人Lenny:我想問幾個關於AI市場的宏觀問題。未來幾年,AI領域會出現那些人們可能沒有充分考慮或預料到的趨勢?那些事情會變得重要?Edwin Chen:我認為未來幾年,模型會變得越來越差異化——這源於不同實驗室的特質、行為方式,以及他們為模型設定的目標函數。一年前我還沒有意識到這一點,當時我覺得所有AI模型最終都會變得同質化,雖然現在某個模型在某個方面可能略勝一籌,但其他模型幾個月後就會趕上。但過去一年我意識到,公司的價值觀會塑造模型的行為。我舉個例子:我讓Claude花30分鐘迭代30版起草了一封無實質影響的郵件。這引發了一個關鍵問題:你理想中的模型行為是怎樣的?是不斷提議最佳化、佔用大量時間以提升參與度,還是優先考慮效率、告知無需再改?模型的行為選擇會從根本上影響其發展,就像Google、臉書和蘋果的搜尋引擎因各自的原則、價值觀和目標而截然不同,未來的大語言模型也會呈現出顯著的行為差異。主持人Lenny:Grock已經呈現出了這種特質——它的“個性”和回答問題的方式都非常獨特。所以你認為未來會有更多這樣差異化的模型?Edwin Chen:沒錯。主持人Lenny:再問一個相關的問題:你認為AI領域中,那些趨勢被低估了,那些又被高估了?Edwin Chen:我認為被低估的趨勢之一是,所有聊天機器人都會開始內建產品功能。我一直很喜歡Claude的“工件”(artifacts)功能,它真的非常好用。前幾天,我發現Claude有個實用功能:生成郵件後會提供按鈕,點選即可將資訊轉為簡訊傳送。我不知道這是不是新功能,但這個概念非常棒。我認為 “升級工件”—— 在聊天機器人中內建微型應用、微型介面 —— 是被低估且潛力十足的趨勢。而 “氛圍程式設計” 被高估了,隨意將其生成的程式碼塞進程式碼庫,雖暫時可用,但長期會導致系統難以維護,這一問題可能在程式設計領域持續存在。主持人Lenny:你的第一個觀點太精彩了。我曾經採訪過Anthropic和OpenAI的首席產品官,問他們AI是否會直接根據使用者需求建立迭代產品?這相當於 “氛圍程式設計” 的升級版——告訴AI你想要什麼,它就直接打造產品。也契合你所說的未來方向。Edwin Chen:沒錯。我認為這是一個非常強大的理念——AI能幫助人們以更高效的方式實現自己的想法。價值思辨:AI訓練的使命與創業初心主持人Lenny:我很好奇你創辦Surge的契機。Coinbase創始人Brian Armstrong曾在演講中提到,自己經濟學、密碼學及工程師的獨特背景,讓他成為創辦Coinbase的不二人選。我覺得你的故事和他很相似,能談談你的背景,以及它如何引領你創辦Surge嗎?Edwin Chen:我自幼痴迷數學與語言,因 MIT 在數學、電腦科學領域的頂尖地位及諾姆・喬姆斯基的存在選擇就讀該校,求學時渴望找到連接這些領域的底層理論。後來在Google、臉書、推特擔任研究者期間,我反覆面臨訓練模型所需資料難獲取的問題,且始終堅信高品質資料的重要性。2020 年 GPT-3 發佈後,我意識到打造更高級功能的模型需要全新解決方案,而當時的資料公司僅專注於圖像標註等簡單任務。憑藉數學、電腦科學與語言學交叉領域的背景,我在 GPT-3 發佈一個月後創辦了Surge,使命是打造推動 AI 前沿發展所需的應用場景。主持人Lenny:你說一個月後,是指GPT-3發佈一個月後嗎?Edwin Chen:是的。主持人Lenny:哇,這真是個偉大的決定。除了已經取得的巨大成功,現在是什麼在驅動你繼續打造Surge,在這個領域深耕?Edwin Chen:我本質是一個科學家,曾想成為數學或電腦科學教授,探索宇宙、語言與溝通的本質,還懷揣和諾姆·喬姆斯基一起用數學、電腦科學及語言學知識破解外星語言的夢想。至今,我仍熱愛深度分析新發佈的AI模型,親自擺弄、運行評估、對比優劣並撰寫詳細報告,即便很多報告對外稱來自資料科學團隊,實則多由我完成。我不擅長CEO的典型工作,卻樂於寫報告、與研究團隊深夜深入探討模型,慶幸能持續參與資料和科學相關工作。驅動我的是希望Surge在AI乃至人類未來中發揮關鍵作用,我們在資料、語言、質量等領域有獨特視角。Surge更像研究實驗室,注重好奇心、長期激勵與學術嚴謹性,而非季度指標和董事會報告上好看的資料。主持人Lenny:通過這次對話,我意識到像你們這樣的公司,對AI的發展方向有著巨大的影響力。你們幫助實驗室發現自己的不足和需要改進的地方,而不僅僅是OpenAI等公司的負責人在引領AI的發展——你們也在其中發揮著重要作用。Edwin Chen:沒錯。現在的生態系統中,人們其實並不知道模型的發展方向,也不知道如何塑造它們,不知道人類在未來這一切中應該扮演什麼角色。所以我認為,我們有很多機會繼續引導這場討論。主持人Lenny:我知道你對這項工作對人類的意義有著非常深刻的見解,能談談嗎?Edwin Chen:我可能會有點哲學化,但這個問題本身就帶有哲學意味,所以請大家耐心聽我說。我們所做的工作,最直接的描述是“訓練和評估AI”,但我經常思考一個更深層次的使命:幫助客戶明確他們的“理想目標函數”——也就是他們希望自己的模型成為什麼樣的模型。一旦他們明確了這一點,我們就會幫助他們訓練模型朝著這個北極星目標前進,幫助他們衡量進步。但這其實非常困難,因為目標函數是豐富而複雜的。這就像養育孩子,定義和衡量 “成功”(如開心、經濟成就)遠比看 SAT 分數複雜。我們的工作是幫客戶找到 AI 的 “北極星目標” 並衡量其進度。核心是思考:是否在打造推動人類進步的系統?如何通過資料集訓練和衡量這種進步?是否在最佳化錯誤方向(如讓人類變懶)?衡量 “人類進步” 難度大,而點選量等表面指標易量化,但我們的意義正在於專注前者 —— 追求複雜目標函數,尋找匹配的資料,訓練出讓生活更豐富、激發好奇心與創造力的 AI。這很難,因為人類本質上是懶惰的——讓AI迎合人類的惰性,是提升參與度、讓各項指標好看的最簡單方法。所以,選擇正確的目標函數,並確保我們朝著這個目標最佳化,而不是被那些容易衡量的表面指標帶偏,這對我們的未來至關重要。主持人Lenny:哇,你的分享讓我對AI的打造、訓練以及你們所做的工作有了全新的認識。最後一個問題:創辦Surge之前,有什麼是你希望自己早知道的?很多人創業時都不知道自己會面臨什麼,你想對過去的自己說些什麼?Edwin Chen:我以前從來沒想過自己會創業。我喜歡做研究,一直很欣賞DeepMind——他們是一家了不起的研究公司,被收購後仍然能繼續做出色的科學研究。但我一直覺得他們是一個神奇的例外。所以我以前以為,如果我創辦公司,就必須成為一個整天盯著財務資料、開沒完沒了的會、做各種枯燥事情的商人——這是我一直很反感的。但沒想到事實完全不是這樣。我現在仍然每天沉浸在資料中,做自己喜歡的事——撰寫分析報告、和研究團隊交流。這本質上是“應用研究”,我們打造的這些出色的資料系統,正在真正推動AI的前沿發展。所以我希望自己早知道:你不需要把所有時間都花在融資上,不需要持續製造熱度,不需要變成自己不喜歡的樣子。只要打造出足夠優秀的產品,它自然能突破所有噪音,讓你獲得成功。如果我早知道這是可能的,我會更早開始創業。我希望這個故事能激勵更多人。主持人Lenny:這真是一個完美的結尾。我覺得這正是創業者需要聽到的話,這次對話一定會激勵很多創業者,尤其是那些想以不同方式做事的創業者。Edwin,非常感謝你今天的分享。Edwin Chen:謝謝大家,再見。 (創新觀察局)
Nature重磅:中國牽頭全球AI治理!這是阻止AI毀滅人類的唯一希望
"AI可能毀滅人類,而中國正在引領全球應對這場危機——其他國家必須加入!"你是否知道,全球AI發展正面臨一個致命悖論:我們正在以火箭般的速度開發AI,卻沒有建立相應的安全機制?Nature最新 editorial 發出震撼警告:中國提出的"世界人工智慧合作組織"(WAICO)可能是阻止AI毀滅人類的唯一希望,而美國等國家的不作為將使全球陷入危險境地!🔥 AI的雙面性:天使還是魔鬼?AI模型擁有令人驚嘆的能力,既能加速科學發現、推動經濟增長,也可能在不經意間造成災難性後果:• 加劇社會不平等:AI演算法可能強化現有的社會偏見• 助力犯罪活動:深度偽造技術已用於詐騙和政治操縱• 傳播虛假資訊:AI生成內容難以分辨真偽• 最可怕的威脅:部分頂尖研究者警告,超級智能AI可能在未來"毀滅人類""它們不完全理解世界,可能會以不可預測的方式失敗。" ——Nature editorial更令人擔憂的是,在AI開發的"百米衝刺"中,安全問題被嚴重忽視。許多專家擔心,當前的AI熱潮正在形成一個即將破裂的經濟泡沫,而全球卻缺乏統一的監管框架!🌐 全球AI治理:三國演義的現狀🇺🇸 美國:自由放任的"野蠻生長"美國作為全球AI技術的領導者,卻沒有國家層面的AI法規,僅靠各州零散的法律和企業自律。最新發佈的"AI安全指數"顯示,沒有一家美國公司得分高於C+。更令人擔憂的是,美國政府不僅沒有加強監管,反而在推動"創世任務"(Genesis Mission),為AI開發者提供前所未有的政府資料存取權,被比作"登月計畫"。"美國公司期望自己監管自己,同時又在無休止的競爭中。" ——Nature🇪🇺 歐盟:謹慎前行的"AI法案"歐盟去年推出的《AI法案》要求最強大的AI系統加強威脅分析,但實施效果尚不明確。媒體報導稱,企業正在向歐盟施壓,要求放寬法律限制。儘管有巨額罰款的威脅,但法案實施仍處於初級階段,實際效果有待觀察。🇨🇳 中國:快速行動的"監管先鋒"與美歐不同,中國自2022年以來已推出一系列AI法規和技術標準:• 要求AI開發者提交生成式AI模型進行部署前安全評估• 強制在AI生成內容上加入可見、不可磨滅的水印• 2025年上半年發佈的AI國家標準數量等於過去三年總和"中國在2025年上半年發佈的AI國家標準數量等於過去三年總和。" ——Concordia AI中國AI監管的核心理念是:既要推動AI廣泛應用,又要確保可追溯性和企業責任。儘管中國AI企業在"AI安全指數"上的得分低於西方同行(部分原因是未能充分應對災難性濫用風險),但其監管速度和系統性令人矚目。🌐 WAICO:中國提出的"AI聯合國"中國提出建立"世界人工智慧合作組織"(WAICO),旨在協調全球AI監管規則,同時"充分尊重各國政策和實踐的差異",並特別關注全球南方國家。WAICO的總部計畫設在上海,雖然細節尚未明確,但Nature認為:"建立這樣一個機構符合所有國家的利益,全球各國政府都應該加入。"WAICO不會直接強制執行AI規則(中國也表示支援聯合國主導的全球AI治理),但它可能成為各國逐漸凝聚共識的平台。🤝 為什麼中國方案值得關注?1️⃣ 中國AI的全球影響力中國推行"開放權重"政策,使全球公司越來越多地基於中國AI建構服務。中國AI模型的可獲取性和低成本正在重塑全球AI生態。"中國'開放權重'模型政策意味著全球公司越來越多地基於中國AI建構服務。" ——Nature2️⃣ 全球治理的迫切需求現有全球AI治理努力——如經濟合作與發展組織的AI原則和歐洲委員會的《人工智慧框架公約》——要麼不具約束力,要麼未得到有效執行。Nature建議,WAICO可以借鑑國際原子能機構(IAEA)的模式:各國同意限制AI開發並開放系統接受檢查,使各國能夠驗證彼此是否遵守規則。🌍 科學啟示:AI治理不是零和遊戲Nature editorial 發出重要警示:"AI治理不應被視為地緣政治競賽,認為一個國家的安全可以通過技術主導來保證。'獲勝'對大多數國家來說不是選項,AI軍備競賽不會保證人們更安全或更富裕。"相反,全球應共同合作,就什麼是安全的AI以及世界希望如何利用AI達成共識。中國學者Angela Zhang指出,儘管中國監管有其政治考量,但其基本動機與他國"相當相似":"他們不想被機器人消滅。"💡 科研人員和企業的行動指南1️⃣ 關注中國AI標準隨著中國AI影響力的擴大,瞭解中國的AI標準對全球研究人員和企業至關重要。忽視這一趨勢可能導致技術落後或合規風險。2️⃣ 參與全球對話科研人員應積極參與多邊對話,幫助評估什麼樣的全球治理既有效又現實。AI安全需要全球智慧,而非單一國家的解決方案。3️⃣ 平衡創新與安全企業和研究機構需要在追求創新的同時,主動加強內部AI安全機制,而不是等待監管強制要求。 (聖不可知)